跳到主要内容

flannel udp模式

flannel github

k8s支持的网络插件

网络架构图

flannel udp模式网络架构图

iShot_2025-03-14_15.59.04

架构概述

图中展示了两种应用程序(Application-N和Application-T)通过网络通信的方式:

1.原生Socket API(Native Socket API)- 用红色虚线表示

  1. /dev/net/tun 设备 - 用蓝色虚线表示

整个架构从上到下分为用户空间(USER SPACE)和内核空间(KERNEL SPACE),还有最底层的物理层(Physical Layer)。

数据流程详解

从Application-T发出的数据流(使用TAP/TUN接口):

1.应用层初始化:

  • Application-T应用程序准备发送数据
  • 应用程序写入数据到打开的/dev/net/tun设备文件("app write to")

2.TAP/TUN处理:

  • 数据通过/dev/net/tun设备进入内核
  • 被tap/tun接口接收并处理

3.内核中的路由:

  • tap/tun接口将数据传递给TCP/IP栈
  • TCP/IP栈进行封包和路由决策

4.数据发送到物理层:

  • 处理后的数据包被发送到物理接口
  • 物理接口将数据发送到物理层
  • 数据通过物理网络传输到目标设备

从Application-N发出的数据流(使用原生Socket API):

1.应用层初始化:

  • Application-N应用程序调用原生Socket API
  • 应用程序创建套接字并准备发送数据

2.用户空间到内核空间的转换:

  • 应用数据通过系统调用从用户空间传递到内核空间
  • 内核中的Socket Layer(套接字层)接收数据

3.内核中的处理:

  • Socket Layer将数据传递给TCP/IP协议栈
  • TCP/IP栈进行封包、路由决策等处理

4.数据发送到物理层:

  • 封装好的数据包被发送到物理接口(physical interface)
  • 物理接口将数据发送到物理层(Physical Layer)
  • 数据通过物理网络传输到目标设备

接收数据的流程(从外部网络接收):

1.数据到达物理层:

  • 数据从物理网络进入物理接口

2.内核中的处理:

  • 物理接口将数据传递给TCP/IP栈
  • TCP/IP栈进行解包、路由决策

3.数据分发:

  • 根据目标和路由规则,数据可能被发送到: a) Socket Layer,然后传递给Application-N(通过原生Socket API) b) 或者传递给tap/tun接口,然后被Application-T读取("read from tap/tun")

Flannel UDP模式的工作原理

Flannel是一个为Kubernetes提供网络服务的工具,而UDP模式是它的一种工作方式:

1.封装机制:

  • Flannel UDP模式使用UDP协议封装容器之间的通信
  • 使用了TAP/TUN设备来实现跨主机的容器网络通信

2.虚拟网络接口:

  • TAP/TUN设备创建虚拟网络接口,使应用程序可以直接访问第3层网络数据
  • TUN设备处理IP层(3层)数据包,TAP设备处理以太网层(2层)数据包

3.数据包转发:

  • 当容器发送数据时,Flannel将数据包封装在UDP数据包中
  • 通过物理网络发送到目标主机
  • 目标主机上的Flannel解包并将数据转发给目标容器

4.网络隔离:

  • 每个容器都有自己的IP地址,位于Flannel管理的子网中
  • Flannel通过分配不同的子网来隔离不同主机上的容器网络

优缺点分析

优点:

  • 实现了跨主机的容器通信
  • 简单易用,配置相对简单
  • 适用于大多数环境,不需要特殊的网络设备支持

缺点:

  • UDP封装会增加额外的开销
  • 性能不如直接路由或VXLAN等其他网络模式
  • 在大规模部署时可能存在效率问题

总结来说,这是一个展示Flannel网络插件UDP模式工作原理的图表,它通过TAP/TUN设备和UDP封装技术实现了跨主机的容器网络通信,是Kubernetes等容器编排系统中常用的网络解决方案之一。

配置方式

flannel releases 中下载的安装文件 kube-flannel.yml 中,以cm挂载的 net-conf.json 配置文件中的 Backend 字段下的 Type 字段指定模式

apiVersion: v1
data:
cni-conf.json: |
{
"name": "cbr0",
"cniVersion": "0.3.1",
"plugins": [
{
"type": "flannel",
"delegate": {
"hairpinMode": true,
"isDefaultGateway": true
}
},
{
"type": "portmap",
"capabilities": {
"portMappings": true
}
}
]
}
net-conf.json: |
{
"Network": "10.244.0.0/16",
"EnableNFTables": false,
"Backend": {
"Type": "udp"
}
}
kind: ConfigMap
......

需要注意的点

安装 CNI Network plugins

flannel默认使用 portmap 作为CNI网络插件,在部署flannel的时候,需要在宿主机上 /opt/cni/bin 目录下安装 CNI Network plugins

如果使用kind安装k8s集群,则需要在kind创建k8s集群的配置文件中增加 extraMounts ,将宿主机 /opt/cni/bin 挂载到kind容器中的 /opt/cni/bin

下载的 CNI Network plugins 解压后内容如下

iShot_2025-03-20_20.02.53

$ cat ops-ingress.yaml 
kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4
name: ops-ingress
networking:
# the default CNI will not be installed
disableDefaultCNI: true
podSubnet: "10.244.0.0/16"
nodes:
- role: control-plane
extraMounts:
- hostPath: /opt/cni/bin
containerPath: /opt/cni/bin
- role: worker
extraMounts:
- hostPath: /opt/cni/bin
containerPath: /opt/cni/bin
- role: worker
extraMounts:
- hostPath: /opt/cni/bin
containerPath: /opt/cni/bin
......

挂载 /dev/net/tun

官方的 kube-flannel.yml 安装文件中,如果使用了udp模式,则需要挂载 /dev/net/tun 设备,否则flannel pod会无法启动并报错如下

$ kubectl logs -f kube-flannel-ds-5d97n
Defaulted container "kube-flannel" out of: kube-flannel, install-cni-plugin (init), install-cni (init)
I0319 08:15:20.367044 1 main.go:211] CLI flags config: {etcdEndpoints:http://127.0.0.1:4001,http://127.0.0.1:2379 etcdPrefix:/coreos.com/network etcdKeyfile: etcdCertfile: etcdCAFile: etcdUsername: etcdPassword: version:false kubeSubnetMgr:true kubeApiUrl: kubeAnnotationPrefix:flannel.alpha.coreos.com kubeConfigFile: iface:[] ifaceRegex:[] ipMasq:true ifaceCanReach: subnetFile:/run/flannel/subnet.env publicIP: publicIPv6: subnetLeaseRenewMargin:60 healthzIP:0.0.0.0 healthzPort:0 iptablesResyncSeconds:5 iptablesForwardRules:true netConfPath:/etc/kube-flannel/net-conf.json setNodeNetworkUnavailable:true}
W0319 08:15:20.367149 1 client_config.go:618] Neither --kubeconfig nor --master was specified. Using the inClusterConfig. This might not work.
I0319 08:15:20.383155 1 kube.go:139] Waiting 10m0s for node controller to sync
I0319 08:15:20.383293 1 kube.go:469] Starting kube subnet manager
I0319 08:15:20.387595 1 kube.go:490] Creating the node lease for IPv4. This is the n.Spec.PodCIDRs: [10.244.0.0/24]
I0319 08:15:20.387626 1 kube.go:490] Creating the node lease for IPv4. This is the n.Spec.PodCIDRs: [10.244.1.0/24]
I0319 08:15:20.387857 1 kube.go:490] Creating the node lease for IPv4. This is the n.Spec.PodCIDRs: [10.244.2.0/24]
I0319 08:15:21.383319 1 kube.go:146] Node controller sync successful
I0319 08:15:21.383352 1 main.go:231] Created subnet manager: Kubernetes Subnet Manager - ops-ingress-worker2
I0319 08:15:21.383359 1 main.go:234] Installing signal handlers
I0319 08:15:21.383633 1 main.go:468] Found network config - Backend type: udp
I0319 08:15:21.386773 1 kube.go:669] List of node(ops-ingress-worker2) annotations: map[string]string{"flannel.alpha.coreos.com/backend-data":"null", "flannel.alpha.coreos.com/backend-type":"", "flannel.alpha.coreos.com/kube-subnet-manager":"true", "flannel.alpha.coreos.com/public-ip":"172.18.0.3", "kubeadm.alpha.kubernetes.io/cri-socket":"unix:///run/containerd/containerd.sock", "node.alpha.kubernetes.io/ttl":"0", "volumes.kubernetes.io/controller-managed-attach-detach":"true"}
I0319 08:15:21.386822 1 match.go:211] Determining IP address of default interface
I0319 08:15:21.387326 1 match.go:264] Using interface with name eth0 and address 172.18.0.3
I0319 08:15:21.387361 1 match.go:286] Defaulting external address to interface address (172.18.0.3)
E0319 08:15:21.387585 1 main.go:359] Error registering network: failed to open TUN device: open /dev/net/tun: no such file or directory
I0319 08:15:21.387690 1 main.go:448] Stopping shutdownHandler...

解决方法

kube-flannel.yml 文件DaemonSet下

spec.template.spec.containers.args.volumeMounts 下新增

- mountPath: /dev/net/tun
name: tun

spec.template.spec.containers.volumes 下新增

- hostPath:
path: /dev/net/tun
name: tun
Right Bottom Gif
Right Top GIF